Ihre Aufgaben Zu Ihren Aufgaben gehört die Konzeption, Erstellung und Pflege aussagekräftiger Berichte und Auswertungen mithilfe von SSRS oder vergleichbaren Reporting-ToolsMit gut strukturierten SQL-Abfragen und optimierten Datenbankstrukturen tragen Sie zu einer hohen Datenqualität und Performance beiDie Betreuung, Weiterentwicklung und Stabilität der eingesetzten Datenbanksysteme liegen ebenfalls in Ihrem VerantwortungsbereichAußerdem entwickeln und warten Sie webbasierte Anwendungen und stellen deren reibungslosen Betrieb sicherIn enger Zusammenarbeit mit verschiedenen Fachbereichen wirken Sie daran mit, Datenmodelle und Architekturstrukturen kontinuierlich zu verbessernAuch die Integration neuer Datenquellen und deren Einbindung in bestehende Systeme gehört zu Ihrem ArbeitsalltagDurch das interne Ticketsystem behalten Sie jederzeit den Überblick über alle anstehenden Aufgaben und Prioritäten Ihre Fähigkeiten Vorausgesetzt wird eine abgeschlossene Ausbildung oder ein Studium im IT-Bereich, etwa in Informatik oder WirtschaftsinformatikPraktische Erfahrung im Umgang mit dem Microsoft SQL Server ab Version 2019 bildet eine wichtige GrundlageKenntnisse in SSIS, SSRS und der Arbeit mit Microsoft Visual Studio (ab Version 2019) sind erforderlichErste Berührungspunkte mit Programmiersprachen wie Python, Java, JavaScript, C# oder .NET werden ebenfalls erwartetErfahrungen mit Reporting-Werkzeugen wie Crystal Reports oder dem Microsoft Report Builder sind von VorteilEbenso hilfreich ist ein sicherer Umgang mit dem Internet Information Services (IIS) zur Verwaltung von WebanwendungenWünschenswert sind zudem Kenntnisse in der Administration Microsoft-basierter SoftwarearchitekturenAls Pluspunkt gelten Know-how im Bereich OLAP-Datenbanken sowie ein generelles Interesse an UX- oder Webdesign-Themen Das wird dir geboten Ein moderner ArbeitsplatzEin Superheroteam mit echtem TeamspiritEine echte und gelebte Work-Life-Balance mit Home Office MöglichkeitenUmfangreiche GesundheitsangeboteFahrtkostenzuschuss bewerbung@ps-direkt.com Tel. 0221-846909-0 oder schreib uns gerne auf Xing an!
Ihre Aufgaben Zu Ihren Aufgaben gehört die Konzeption, Erstellung und Pflege aussagekräftiger Berichte und Auswertungen mithilfe von SSRS oder vergleichbaren Reporting-ToolsMit gut strukturierten SQL-Abfragen und optimierten Datenbankstrukturen tragen Sie zu einer hohen Datenqualität und Performance beiDie Betreuung, Weiterentwicklung und Stabilität der eingesetzten Datenbanksysteme liegen ebenfalls in Ihrem VerantwortungsbereichAußerdem entwickeln und warten Sie webbasierte Anwendungen und stellen deren reibungslosen Betrieb sicherIn enger Zusammenarbeit mit verschiedenen Fachbereichen wirken Sie daran mit, Datenmodelle und Architekturstrukturen kontinuierlich zu verbessernAuch die Integration neuer Datenquellen und deren Einbindung in bestehende Systeme gehört zu Ihrem ArbeitsalltagDurch das interne Ticketsystem behalten Sie jederzeit den Überblick über alle anstehenden Aufgaben und Prioritäten Ihre Fähigkeiten Vorausgesetzt wird eine abgeschlossene Ausbildung oder ein Studium im IT-Bereich, etwa in Informatik oder WirtschaftsinformatikPraktische Erfahrung im Umgang mit dem Microsoft SQL Server ab Version 2019 bildet eine wichtige GrundlageKenntnisse in SSIS, SSRS und der Arbeit mit Microsoft Visual Studio (ab Version 2019) sind erforderlichErste Berührungspunkte mit Programmiersprachen wie Python, Java, JavaScript, C# oder .NET werden ebenfalls erwartetErfahrungen mit Reporting-Werkzeugen wie Crystal Reports oder dem Microsoft Report Builder sind von VorteilEbenso hilfreich ist ein sicherer Umgang mit dem Internet Information Services (IIS) zur Verwaltung von WebanwendungenWünschenswert sind zudem Kenntnisse in der Administration Microsoft-basierter SoftwarearchitekturenAls Pluspunkt gelten Know-how im Bereich OLAP-Datenbanken sowie ein generelles Interesse an UX- oder Webdesign-Themen Das wird dir geboten Ein moderner ArbeitsplatzEin Superheroteam mit echtem TeamspiritEine echte und gelebte Work-Life-Balance mit Home Office MöglichkeitenUmfangreiche GesundheitsangeboteFahrtkostenzuschuss bewerbung@ps-direkt.com Tel. 0221-846909-0 oder schreib uns gerne auf Xing an!
Stellenbeschreibung Allgeier Public zählt zu den führenden Full-Service-Providern für Digitalisierungsprojekte der öffentlichen Verwaltungen in Deutschland. Unsere Teams mit rund 500 Kolleginnen und Kollegen gestalten den digitalen Wandel der Verwaltung und unterstützen unsere Kunden mit Fachkompetenz, Beratung und Lösungen.
Our highly specialised consultants can cater to your every wish and expectation and will prepare you for interviews and contract negotiations. Give it a try and learn what the market has to offer – our services are free of charge, non-binding and discreet! We look forward to hearing from you. Develop, maintain, and optimize data pipelines and ETL/ELT processes using DatabricksImplement version control workflows and collaborate using GitHubBuild and maintain CI/CD pipelines with GitHub ActionsDesign and implement scalable data transformations using Python/PySparkWrite efficient and reliable SQL queries for data processing and analytics Strong hands-on experience with Databricks and strong SQL skillsProficiency with GitHub for version control and collaborationExperience building CI/CD pipelines, ideally with GitHub Actions and solid knowledge of Python/PySparkExperience with Microsoft Azure and knowledge of Data Vault data modeling is an advantageExperience with Kafka or other streaming technologies is an advantageUnderstanding of Unity Catalog for data governance is an advantageExperience with Splunk for monitoring and troubleshooting is an advantage Renowned clientRemote work possible Ihr Kontakt Ansprechpartner Florian Pracher Referenznummer 863468/1 Kontakt aufnehmen E-Mail: florian.pracher@hays.at Anstellungsart Freiberuflich für ein Projekt
Our highly specialised consultants can cater to your every wish and expectation and will prepare you for interviews and contract negotiations. Give it a try and learn what the market has to offer – our services are free of charge, non-binding and discreet! We look forward to hearing from you. Develop, maintain, and optimize data pipelines and ETL/ELT processes using Databricks Implement version control workflows and collaborate using GitHub Build and maintain CI/CD pipelines with GitHub Actions Design and implement scalable data transformations using Python/PySpark Write efficient and reliable SQL queries for data processing and analytics Strong hands-on experience with Databricks and strong SQL skills Proficiency with GitHub for version control and collaboration Experience building CI/CD pipelines, ideally with GitHub Actions and solid knowledge of Python/PySpark Experience with Microsoft Azure and knowledge of Data Vault data modeling is an advantage Experience with Kafka or other streaming technologies is an advantage Understanding of Unity Catalog for data governance is an advantage Experience with Splunk for monitoring and troubleshooting is an advantage Renowned client Remote work possible Ihr Kontakt Ansprechpartner Florian Pracher Referenznummer 863468/1 Kontakt aufnehmen E-Mail: florian.pracher@hays.at Anstellungsart Freiberuflich für ein Projekt
Our highly specialised consultants can cater to your every wish and expectation and will prepare you for interviews and contract negotiations. Give it a try and learn what the market has to offer – our services are free of charge, non-binding and discreet! We look forward to hearing from you. Manage and refine business and technical requirements in collaboration with stakeholdersCoordinate data integration activities with various source systemsDesign and model data structures within a Data Warehouse environment, with a strong focus on Data Vault methodologyDevelop and optimize data pipelines using SQL and PythonWork with tools like Databricks and dbt to build scalable data transformation workflowsEnsure data quality, consistency, and compliance, especially within banking-related use cases Experience in requirements managementExperience in coordination with source systemsExperience with data modeling in a Data Warehouse environment: Focus on Data VaultGood German and English language skillsDatabricks experience is nice to haveExperience with dbt (data build tool) is an advantageExperience with SQL (as a query language) and Python is an advantageBanking experience is an advantage Renowned clientRemote work Ihr Kontakt Ansprechpartner Florian Pracher Referenznummer 863466/1 Kontakt aufnehmen E-Mail: florian.pracher@hays.at Anstellungsart Freiberuflich für ein Projekt
Our highly specialised consultants can cater to your every wish and expectation and will prepare you for interviews and contract negotiations. Give it a try and learn what the market has to offer – our services are free of charge, non-binding and discreet! We look forward to hearing from you. Manage and refine business and technical requirements in collaboration with stakeholders Coordinate data integration activities with various source systems Design and model data structures within a Data Warehouse environment, with a strong focus on Data Vault methodology Develop and optimize data pipelines using SQL and Python Work with tools like Databricks and dbt to build scalable data transformation workflows Ensure data quality, consistency, and compliance, especially within banking-related use cases Experience in requirements management Experience in coordination with source systems Experience with data modeling in a Data Warehouse environment: Focus on Data Vault Good German and English language skills Databricks experience is nice to have Experience with dbt (data build tool) is an advantage Experience with SQL (as a query language) and Python is an advantage Banking experience is an advantage Renowned client Remote work Ihr Kontakt Ansprechpartner Florian Pracher Referenznummer 863466/1 Kontakt aufnehmen E-Mail: florian.pracher@hays.at Anstellungsart Freiberuflich für ein Projekt
Damit ermöglichst Du eine effiziente und sichere Bereitstellung von Daten für Analyse- und Reportingzwecke und kümmerst Dich um die Datenmodellierung, ETL-Prozesse sowie die Data Warehouse-Automatisierung. Hierzu nutzt Du moderne Tools und Cloud-Services und entwickelst unsere BI-Plattform und -Architektur weiter. Im Betrieb überwachst und optimierst Du die Systemperformance, die Betriebskosten sowie die Sicherheitsstandards.
P & P wächst mit neuen Aufgaben für positiv denkende Anpacker. Das ist Ihre Chance! Die Deutsche Post Customer Service Center GmbH (DP CSC) ist eine hundertprozentige Tochtergesellschaft der Deutschen Post AG und bildet den Kundenservice für den Unternehmensbereich P & P ab.
Teilprojektleitung im Aufbau eines Data Lakes für die Steuerabteilung innerhalb der SAP Business Data Cloud Konzeption und Modellierung von steuerlich relevanten Datenstrukturen und Datenflüssen Anforderungsmanagement: Aufnahme, Analyse und Priorisierung der Anforderungen der Steuerfachbereiche Enabling der Steuerabteilung im Umgang mit Datenmodellen und analytischen Werkzeugen Enge Zusammenarbeit mit dem Plattform Service zur Übergabe der Modelle in den späteren Betrieb Unterstützung bei Qualitätssicherung, Testing und Data Governance Mitarbeit bei der Erstellung von Standards, Guidelines und Dokumentationen Abgeschlossenes Studium im Bereich Wirtschaftsinformatik, Betriebswirtschaft, Data Analytics oder eine vergleichbare Qualifikation Erfahrung im Umfeld von SAP Datasphere / Business Warehouse / Data Lakes oder Business Data Cloud Kenntnisse in der Datenmodellierung (z.B.
Teilprojektleitung im Aufbau eines Data Lakes für die Steuerabteilung innerhalb der SAP Business Data Cloud Konzeption und Modellierung von steuerlich relevanten Datenstrukturen und Datenflüssen Anforderungsmanagement: Aufnahme, Analyse und Priorisierung der Anforderungen der Steuerfachbereiche Enabling der Steuerabteilung im Umgang mit Datenmodellen und analytischen Werkzeugen Enge Zusammenarbeit mit dem Plattform Service zur Übergabe der Modelle in den späteren Betrieb Unterstützung bei Qualitätssicherung, Testing und Data Governance Mitarbeit bei der Erstellung von Standards, Guidelines und Dokumentationen Abgeschlossenes Studium im Bereich Wirtschaftsinformatik, Betriebswirtschaft, Data Analytics oder eine vergleichbare Qualifikation Erfahrung im Umfeld von SAP Datasphere / Business Warehouse / Data Lakes oder Business Data Cloud Kenntnisse in der Datenmodellierung (z.B.
Bertelsmann Global Business Services GmbH sucht in eine/n Projektmitarbeiter (m/w/d) - SAP Business Data Cloud / Data & Analytics (ID-Nummer: 13673425)
Als Unternehmen der FORVIA-Gruppe steht FORVIA HELLA für leistungsstarke Lichttechnik sowie Fahrzeugelektronik und deckt mit der Business Group Lifecycle Solutions zugleich ein breites Service- und Produktportfolio für das Ersatzteil- und Werkstattgeschäft sowie für Hersteller von Spezialfahrzeugen ab. Mit derzeit rund 36.500 Mitarbeiterinnen und Mitarbeitern an über 125 Standorten ist das Unternehmen weltweit aktiv und hat im Geschäftsjahr 2024 einen bereinigten Umsatz in Höhe von 8,1 Milliarden Euro erzielt.
Our highly specialised consultants can cater to your every wish and expectation and will prepare you for interviews and contract negotiations. Give it a try and learn what the market has to offer – our services are free of charge, non-binding and discreet! We look forward to hearing from you. Designing and implementing the ETL pipeline and MongoDB scheme Managing the document database, data curation, and FAIRification (cleaning, parsing, disambiguation, deduplication, data harmonization etc.), including ongoing database maintenance Integrating new data sources, including the development of robust parsers and text cleaning workflows Enhancing the user experience (e.g., building a data warehouse and APIs) User support for utilizing RoMine datasets (documentation, training, use case support) Data engineering, data warehousing, and database experience Experience with NoSQL/MongoDB database Experience or knowledge of ETL orchestration tools, such as Airflow Good understanding in the area of Text Analytics/Mining, TDM, and LLMs Strong proficiency in Python scripting Internal career opportunities World-renowned pharmaceutical company Ihr Kontakt Referenznummer 864194/1 Kontakt aufnehmen Telefon:+41 44 225 50 00 E-Mail: positionen@hays.ch Anstellungsart Freiberuflich für ein Projekt
Our highly specialised consultants can cater to your every wish and expectation and will prepare you for interviews and contract negotiations. Give it a try and learn what the market has to offer – our services are free of charge, non-binding and discreet! We look forward to hearing from you. Designing and implementing the ETL pipeline and MongoDB schemeManaging the document database, data curation, and FAIRification (cleaning, parsing, disambiguation, deduplication, data harmonization etc.), including ongoing database maintenanceIntegrating new data sources, including the development of robust parsers and text cleaning workflowsEnhancing the user experience (e.g., building a data warehouse and APIs)User support for utilizing RoMine datasets (documentation, training, use case support) Data engineering, data warehousing, and database experienceExperience with NoSQL/MongoDB databaseExperience or knowledge of ETL orchestration tools, such as AirflowGood understanding in the area of Text Analytics/Mining, TDM, and LLMsStrong proficiency in Python scripting Internal career opportunities World-renowned pharmaceutical company Ihr Kontakt Referenznummer 864194/1 Kontakt aufnehmen Telefon:+41 44 225 50 00 E-Mail: positionen@hays.ch Anstellungsart Freiberuflich für ein Projekt
Warehouse Coordinator / Lagerist (m/w/d) in Hamburg Willkommen bei Aviation Industry Personnel SERVICES GmbH, dem Experten für Service- und Personaldienstleistungen in der Luftfahrt. Wir führen Menschen zusammen, um hohe Ziele zu erreichen.
Soluvia IT-Services GmbH sucht in eine/n Applications Architect (m/w/d) SAP Data & Analytics / BI (ID-Nummer: 13720465)
Job Description As In-House Service Logistics Coordinator, you will be responsible for the following: SAP & Logistics Process Daily execution in SAP of goods receipt, put-away, transfer postings, picking, packing, goods issue, returns, consignment, stock transport orders and service notifications.
Du übersetzt Fragen unserer Fachbereiche in verständliche Auswertungen und erstellst standardisierte Reports, Self-Service-Dashboards und kleine Data Apps (z. B. in SAP Analytics Cloud und über Excel Add-ins) und behältst die Usability dabei stets im Blick.
Coordinator (m/f/d) Warehouse Logistics & Materials Management About redi-Group We are a global technical service provider specialized in quality activities across the whole supply chain and production facilities. As a successful, owner-managed family business, we have been committed to innovation and excellence for over 25 years.
What you can expect You take on the functional and disciplinary responsibility for all FTEs in the Sales Data Hub within the federated data setup, including Data Engineers, Data Scientists, Data Governance roles and Product Owners Data.You define, design, develop, and operate cloud‑based data products for the Sales, Marketing, and Customer Service business units.You are responsible for the methodological integration of data assets and data products.You manage the Sales Data Hub operationally and further develop it as a specialized unit for data‑driven solutions in Sales, Marketing, and Customer Service.You are responsible for the further development and ongoing maintenance of all sales‑related models based on feedback and requirements from the sales organization.You lead projects related to planning, expanding, and organizing new and existing products in collaboration with the relevant business units and external partners.You assume technical responsibility for data products developed by or for the Sales, Marketing, and Customer Service areas within the Data Intelligence & Analytics team.You drive the continuous expansion, professionalization, and organizational development of the Sales Data Hub within the existing governance and organizational framework.
Du stellst Analyseergebnisse und Datenprodukte in Form von Berichten, Dashboards oder Services zur Verfügung. Du lernst den Bereich Data Science kennen und entwickelst mit deinen Kollegen Modelle in den Bereichen Maschinelles Lernen, Deep Learning und Künstlicher Intelligenz.
Du stellst Analyseergebnisse und Datenprodukte in Form von Berichten, Dashboards oder Services zur Verfügung. Du lernst den Bereich Data Science kennen und entwickelst mit deinen Kollegen Modelle in den Bereichen Maschinelles Lernen, Deep Learning und Künstlicher Intelligenz.
Our highly specialised consultants can cater to your every wish and expectation and will prepare you for interviews and contract negotiations. Give it a try and learn what the market has to offer – our services are free of charge, non-binding and discreet! We look forward to hearing from you. Design, build and optimize enterprise Tableau dashboards Develop reporting-friendly data models on Cloudera Data Platform (Hadoop) and Azure Databricks (Delta Lake, SQL Warehouses) Implement and tune SQL queries (Hive, Impala, Spark SQL, Databricks SQL) for performance, cost efficiency and concurrency Apply Tableau performance optimization strategies (extract vs live, push-down optimization, query tuning) Design and implement secure enterprise Tableau configurations, including row-level security aligned with role concepts Ensure compliance with IT security, data governance and regulatory requirements Collaborate with data platform teams, DataOps, IT security/compliance and controlling solutions Produce professional documentation: data models, dashboard specifications, data-source definitions, security concepts, test cases Conduct testing for accuracy, performance, access control and stability of dashboards and data models Provide knowledge transfer, coaching and structured handover to internal teams Strong hands-on experience with Tableau Desktop and Tableau Server/Cloud in enterprise environments Proven ability to build management-ready dashboards for finance/controlling or other regulated industries Practical experience with Cloudera Data Platform, Hadoop ecosystems, and Azure Databricks integrations Advanced SQL skills across Hive, Impala, Spark SQL, Databricks SQL Solid understanding of Delta Lake, parquet/ORC formats, and BI-oriented data modeling principles Experience implementing row-level security and with enterprise BI solutions Strong knowledge of performance optimization in Tableau, Hadoop and Databricks environments Ability to operate in regulated financial environments with security, compliance and data governance constraints Excellent communication and documentation skills in English International client Remote option Ihr Kontakt Ansprechpartner Eliška Stejskalová Referenznummer 864486/1 Kontakt aufnehmen E-Mail: eliska.stejskalova@hays.at Anstellungsart Freiberuflich für ein Projekt
Our highly specialised consultants can cater to your every wish and expectation and will prepare you for interviews and contract negotiations. Give it a try and learn what the market has to offer – our services are free of charge, non-binding and discreet! We look forward to hearing from you. Design, build and optimize enterprise Tableau dashboardsDevelop reporting-friendly data models on Cloudera Data Platform (Hadoop) and Azure Databricks (Delta Lake, SQL Warehouses)Implement and tune SQL queries (Hive, Impala, Spark SQL, Databricks SQL) for performance, cost efficiency and concurrencyApply Tableau performance optimization strategies (extract vs live, push-down optimization, query tuning)Design and implement secure enterprise Tableau configurations, including row-level security aligned with role conceptsEnsure compliance with IT security, data governance and regulatory requirementsCollaborate with data platform teams, DataOps, IT security/compliance and controlling solutionsProduce professional documentation: data models, dashboard specifications, data-source definitions, security concepts, test casesConduct testing for accuracy, performance, access control and stability of dashboards and data modelsProvide knowledge transfer, coaching and structured handover to internal teams Strong hands-on experience with Tableau Desktop and Tableau Server/Cloud in enterprise environmentsProven ability to build management-ready dashboards for finance/controlling or other regulated industriesPractical experience with Cloudera Data Platform, Hadoop ecosystems, and Azure Databricks integrationsAdvanced SQL skills across Hive, Impala, Spark SQL, Databricks SQLSolid understanding of Delta Lake, parquet/ORC formats, and BI-oriented data modeling principlesExperience implementing row-level security and with enterprise BI solutionsStrong knowledge of performance optimization in Tableau, Hadoop and Databricks environmentsAbility to operate in regulated financial environments with security, compliance and data governance constraintsExcellent communication and documentation skills in English International clientRemote option Ihr Kontakt Ansprechpartner Eliška Stejskalová Referenznummer 864486/1 Kontakt aufnehmen E-Mail: eliska.stejskalova@hays.at Anstellungsart Freiberuflich für ein Projekt
Responsibilities also include establishing and maintaining efficiencies in the areas of Receiving, Shipping and Work Order Picking, leading to improvements in on-time performance of department pats flow and services. Work with department Director, Leads and other KHS departmental personnel in identifying and incorporating strategic initiatives to improve department work performance.
Responsibilities also include establishing and maintaining efficiencies in the areas of Receiving, Shipping and Work Order Picking, leading to improvements in on-time performance of department pats flow and services. Work with department Director, Leads and other KHS departmental personnel in identifying and incorporating strategic initiatives to improve department work performance.
What you will do Gather, analyze, and interpret data to fulfill reporting requests from business stakeholders Translate complex data into clear, actionable insights that support business strategy Support ad hoc analysis and contribute to data-driven decision-making Automate routine reporting processes and maintain existing reports to ensure reliability and improve data workflows Maintain, design, and implement advanced dashboards using tools like Google Looker Studio, enabling self-service analytics across the organization Collaborate with data engineers, data scientists, and stakeholders across the organization to ensure data quality and consistency while delivering data-driven insights that support supply-related business decisions Communicate findings effectively to technical and non-technical audiences Foster a data-driven culture within the organization, promoting the use of analytics in decision-making processes Who you are You have at least 1-2 years of experience as a Data Analyst Proficiency in SQL for complex data analysis, reporting, and querying large datasets Experience with Google BigQuery Experience with data visualization tools (e.g., Looker Studio, Excel, or similar) to create compelling dashboards and reports Excellent communication skills in English Ability to translate fuzzy business requirements from diverse stakeholders into analytical requirements.
Sektkellerei KG sucht in eine/n Solution Consultant – Data & Process Integration Services/Master Data Management (d/m/f) (ID-Nummer: 12679754)
Our highly specialised consultants can cater to your every wish and expectation and will prepare you for interviews and contract negotiations. Give it a try and learn what the market has to offer – our services are free of charge, non-binding and discreet! We look forward to hearing from you. Design, build, and optimize batch data pipelines for internal tool use cases Develop efficient Spark SQL transformations for large-scale datasets Use Python for data processing, orchestration, and automation Create and maintain data models (facts, dimensions, aggregates) with clear grain and metric definitions Ensure data quality and correctness, including handling late data, duplicates, and adjustments Implement validation, data quality checks, and reconciliation logic Work with business stakeholders to gather requirements, define metrics, and translate needs into pipelines Collaborate with infrastructure teams on standards, performance tuning, and best practices Bachelor oder Master degree in a technical field or an equivalent qualification Experience in data engineering or a related field Strong proficiency in Spark SQL for large-scale data transformations Solid Python skills for data processing and pipeline development Strong understanding of data modeling (fact tables, dimensions, grain, SCDs) Hands-on experience building and maintaining batch pipelines in production High attention to detail with a strong focus on data quality and metric integrity Ability to communicate clearly with non-technical stakeholders and translate business needs into data solutions Remuneration in the most attractive collective agreement in the industry Annual leave entitlement of 30 days Generous working time account with the possibility to pay overtime Subsidization of direct insurance (as company pension scheme) Ihr Kontakt Ansprechpartner Kristina Meng Referenznummer 863942/1 Kontakt aufnehmen E-Mail: kristina.meng@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Our highly specialised consultants can cater to your every wish and expectation and will prepare you for interviews and contract negotiations. Give it a try and learn what the market has to offer – our services are free of charge, non-binding and discreet! We look forward to hearing from you. Design, build, and optimize batch data pipelines for internal tool use casesDevelop efficient Spark SQL transformations for large-scale datasetsUse Python for data processing, orchestration, and automationCreate and maintain data models (facts, dimensions, aggregates) with clear grain and metric definitionsEnsure data quality and correctness, including handling late data, duplicates, and adjustmentsImplement validation, data quality checks, and reconciliation logicWork with business stakeholders to gather requirements, define metrics, and translate needs into pipelinesCollaborate with infrastructure teams on standards, performance tuning, and best practices Bachelor oder Master degree in a technical field or an equivalent qualificationExperience in data engineering or a related fieldStrong proficiency in Spark SQL for large-scale data transformationsSolid Python skills for data processing and pipeline developmentStrong understanding of data modeling (fact tables, dimensions, grain, SCDs)Hands-on experience building and maintaining batch pipelines in productionHigh attention to detail with a strong focus on data quality and metric integrityAbility to communicate clearly with non-technical stakeholders and translate business needs into data solutions Remuneration in the most attractive collective agreement in the industry Annual leave entitlement of 30 days Generous working time account with the possibility to pay overtime Subsidization of direct insurance (as company pension scheme) Ihr Kontakt Ansprechpartner Kristina Meng Referenznummer 863942/1 Kontakt aufnehmen E-Mail: kristina.meng@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
This commitment drives us to deliver leading‑edge technology, sustainable innovation, and best‑in‑class service to customers worldwide. And that’s where you come in — because our people make it happen. We offer a collaborative, inclusive, and flexible work environment, competitive compensation, and comprehensive wellness and benefits programs.
Über uns teamative helps you to digitize your business. And we do so with a unique concept: as a service provider with the flexibility of a staffing specialist, we create creative, scalable IT and SAP services, innovative solutions and smart sourcing models of all kinds – so that your company can achieve your goals and tap into new potential.
#Health : Your health matters to us – benefit from health days, company sports activities, office yoga, and free support from the pme Family Service. #Holiday: We offer you 30 days of vacation per year based on a full-time position, plus December 24th and 31st off. #OneCompany : Stronger together – with over 10,000 employees from 95 nations, we promote an international and collegial corporate culture.
#Health: Your health matters to us – benefit from health days, company sports activities, office yoga, and free support from the pme Family Service. #Holiday: We offer you 30 days of vacation per year based on a full-time position, plus December 24th and 31st off. #OneCompany: Stronger together – with over 10,000 employees from 95 nations, we promote an international and collegial corporate culture.
Services by Handelsblatt Media Group GmbH sucht in Düsseldorf eine/n (Senior) Data Engineer (gn) (ID-Nummer: 13317973)
We believe that an inclusive and respectful workplace culture fosters a sense of belonging among our employees, builds a stronger team, and allows individual employees the opportunity to maximize their personal potential IQVIA is a leading global provider of clinical research services, commercial insights and healthcare intelligence to the life sciences and healthcare industries. We create intelligent connections to accelerate the development and commercialization of innovative medical treatments to help improve patient outcomes and population health worldwide.
Arethia Services Germany GmbH & Co. KG sucht in eine/n (Junior) BI Specialist (m/w/d) (ID-Nummer: 13748668)
Our people at JLL and JLL Technologies are shaping the future of real estate for a better world by combining world class services, advisory and technology for our clients. We are committed to hiring the best, most talented people and empowering them to thrive, grow meaningful careers and to find a place where they belong.
Über uns Die OPITZ CONSULTING Deutschland GmbH ist ein führender Partner der Digitalisierung. Als Digitale Service Manufaktur beraten wir und entwickeln Software mit über 400 Kolleginnen und Kollegen. Unsere Kunden: vom Mittelstand bis zum DAX-Konzern – gemeinsam auf dem Weg in die digitale Zukunft.
Asklepios Service IT GmbH sucht in eine/n Senior Data Engineer (w/m/d) (ID-Nummer: 13601947)
Liebherr-International Deutschland GmbH sucht in eine/n Data Service Specialist (m/w/d) (ID-Nummer: 13710713)
Redshift, BigQuery) Experience with centralized logging, monitoring, and alerting solutions (Datadog) Hands-on experience with a cloud ecosystem (e.g. AWS, GCP) and integration with orchestration services (like Dagster or Airflow) Experience of running data processing pipelines using distributed data processing frameworks Hands-on Experience with Machine Learning Models or LLM-based systems is a plus Benefits Hybrid working Fresh fruit every day Sports courses Free access to code.talks Exclusive employee discounts Free drinks Language courses Laracast account for free Company parties Help in the relocation process Mobility subsidy State-of-the-art technology Central Location Flexible Working Hours Company pension Professional training Dog-friendly office AY Academy Feedback Culture Job Bikes YOU ARE THE CORE OF ABOUT YOU.
Über uns Die OPITZ CONSULTING Deutschland GmbH ist ein führender Partner der Digitalisierung. Als Digitale Service Manufaktur beraten wir und entwickeln Software mit über 400 Kolleginnen und Kollegen. Unsere Kunden: vom Mittelstand bis zum DAX-Konzern – gemeinsam auf dem Weg in die digitale Zukunft.
Erfahrung im B2B-Vertrieb erklärungsbedürftiger Produkte, idealerweise im Umfeld von Data, Analytics oder AI-Anwendungen.Sicherer Umgang mit datengetriebenen Lösungen und die Fähigkeit, diese verständlich in Business Cases zu übersetzen.Kommunikationsstärke, Überzeugungsfähigkeit und Freude an Präsentationen – sowohl remote als auch vor Ort.Ein belastbares berufliches Netzwerk ist von Vorteil und ermöglicht einen schnellen Einstieg.Ausgeprägter Gestaltungswille, um neue Geschäftsfelder, Produkte und Services aktiv mitzuentwickeln und erfolgreich in den Markt zu bringen.Motivation, Kund:innen operativ wie strategisch erfolgreich zu machen, kombiniert mit einem klaren Fokus auf Abschlüsse und nachhaltige Beziehungen.
CHEPLAPHARM Arzneimittel GmbH sucht in eine/n Teamlead Customer Service national (m/w/d) (ID-Nummer: 13664897)
Analyse und Auswertung großer Datenmengen (Outbound-Datenanalyse, Data Mining) Entwicklung und Implementierung von Datenmodellen zur Prozessoptimierung Nutzung von Google Cloud Platform (GCP) für Datenmanagement und Analyse Aufbau von skalierbaren Datenpipelines und ETL-Prozessen Zusammenarbeit mit internen Fachbereichen zur Digitalisierung und Automatisierung Langfristige strategische Projekte zur Verbesserung der Datenverfügbarkeit und Geschwindigkeit Abgeschlossenes Studium in Informatik, Wirtschaftsinformatik, Data Science, Mathematik, Statistik oder vergleichbarer Fachrichtung Erfahrung als Data Scientist oder in einer ähnlichen Rolle Fundierte Kenntnisse in: Google Cloud Platform (BigQuery, AI/ML-Services) Programmiersprachen: Python, SQL Data Analytics, Machine Learning, Data Mining Erfahrung mit ETL-Prozessen und Cloud-Architekturen Analytisches Denken, strukturierte Arbeitsweise und Kommunikationsstärke Sehr gute Deutsch- und Englischkenntnisse Abwechslungsreiche Tätigkeit in einem renommierten Unternehmen Angenehmes Arbeitsklima Ein hoch motiviertes Team und ein offener Kommunikationsstil Jährlicher Urlaubsanspruch von 30 Tagen Ihr Kontakt Referenznummer 854939/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
KG sucht in eine/n Werkstudententätigkeit (m/w/d) Projectmanagement & Data Services (ID-Nummer: 13728057)
What makes you stand out You possess strong expertise in analytical and dimensional data modeling (e.g., hybrid models, conceptual data models, conformed dimensions) and think in terms of long‑lasting, stable data products.You have extensive experience with Azure Data Services (ADLS, Azure Data Factory / Synapse Pipelines, Azure Databricks), Snowflake, and dbt as your central transformation tool.You master SQL at an expert level and use Python confidently for data processes, transformations, automations, and quality checks.You bring experience in dbt governance — including modularization, testing strategies, versioning, documentation, and clean‑architecture approaches.You think in architectural terms, communicate precisely, enforce standards without creating blockers, and ensure the long‑term maintainability, performance, and scalability of the entire data model.You speak business‑fluent English (C1) and good German; experience with Kafka or event‑streaming architectures is a plus.
Analyse und Auswertung großer Datenmengen (Outbound-Datenanalyse, Data Mining)Entwicklung und Implementierung von Datenmodellen zur ProzessoptimierungNutzung von Google Cloud Platform (GCP) für Datenmanagement und AnalyseAufbau von skalierbaren Datenpipelines und ETL-ProzessenZusammenarbeit mit internen Fachbereichen zur Digitalisierung und AutomatisierungLangfristige strategische Projekte zur Verbesserung der Datenverfügbarkeit und Geschwindigkeit Abgeschlossenes Studium in Informatik, Wirtschaftsinformatik, Data Science, Mathematik, Statistik oder vergleichbarer FachrichtungErfahrung als Data Scientist oder in einer ähnlichen RolleFundierte Kenntnisse in:Google Cloud Platform (BigQuery, AI/ML-Services)Programmiersprachen: Python, SQLData Analytics, Machine Learning, Data MiningErfahrung mit ETL-Prozessen und Cloud-ArchitekturenAnalytisches Denken, strukturierte Arbeitsweise und KommunikationsstärkeSehr gute Deutsch- und Englischkenntnisse Abwechslungsreiche Tätigkeit in einem renommierten UnternehmenAngenehmes Arbeitsklima Ein hoch motiviertes Team und ein offener KommunikationsstilJährlicher Urlaubsanspruch von 30 Tagen Ihr Kontakt Referenznummer 854939/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH